• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "Unity 2021.1"에 대한 통합 검색 내용이 1,967개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
PyMAPDL의 기초부터 활용까지
앤시스 워크벤치를 활용한 해석 성공사례   파이앤시스(PyAnsys)는 파이썬(Python)을 활용하여 앤시스(Ansys) 제품을 사용할 수 있는 라이브러리를 뜻한다. 파이앤시스는 구조해석과 관련한 PyMAPDL, PyMechanical과 전처리 및 후처리에 대한 PyDPF가 있다. 이와 같은 라이브러리를 이용하면 파이썬 내에 있는 패키지와 함께 다양한 작업이 가능해진다. 이번 호에서는 파이앤시스 중에서도 PyMAPDL에 대한 사용 방법과 활용 예시를 소개하고자 한다.   ■ 노은솔 태성에스엔이 구조 3팀 매니저로 구조해석 및 자동화 프로그램에 대한 기술 지원을 담당하고 있다. 이메일 | esnoh@tsne.co.kr 홈페이지 | www.tsne.co.kr   앤시스에서 구조, 열, 음향 등 다양한 해석에 사용되는 유한요소 솔버 중 하나인 Mechanical APDL은 명령어를 기반으로 구동된다. 복잡한 연산이나 매개변수 설정 및 자동화 기능이 가능하기 때문에 여전히 많이 사용되고 있다. 하지만 앤시스 워크벤치(Ansys Workbench)의 제한적인 기능을 활용할 경우, 추가적으로 APDL 명령어를 사용해야 한다. 말하자면 APDL 명령어로 여러 기능을 구현할 수 있지만, 넓은 범위에서 적용하기에는 한계가 있는 것이다. 예로 머신러닝이나 딥러닝과 관련한 라이브러리인 텐서플로(TensorFlow)나 케라스(Keras) 등은 APDL 명령어 내에서는 사용할 수 없으며, 파이썬과 APDL 연동에도 한계가 있다.  이 때 PyMAPDL 라이브러리를 사용하면 파이썬 내에서 APDL을 사용하기 때문에 활용도가 넓어진다. 이번 호에서는 PyMAPDL의 사용 방법과 활용 예시를 다뤄보고자 한다.    PyMAPDL 사용 방법 PyMAPDL은 파이썬에서 사용될 때 gRPC(Google Remote Procedure Call)를 기반으로 파이썬 명령어를 APDL 명령어로 변환하여 MAPDL 인스턴스(Instance)에 전송하고, 결과를 파이썬으로 다시 반환한다. 이러한 작업 과정 때문에 파이썬과 MAPDL 간 원활한 데이터 통신이 가능해지며, 다수의 MAPDL 인스턴스를 생성하여 다른 명령으로 동시 작업 또한 가능하다.   그림 1. PyMAPDL gRPC   먼저 PyMAPDL을 사용하기 위해서 앤시스 메커니컬(Ansys Mechanical)이 설치되어 있어야 하며, 관련 라이선스를 보유하고 있어야 한다. 현재 파이앤시스 홈페이지에 따르면 파이썬 3.8 이상 버전을 지원하고 있으며, gRPC 기반으로 사용하기 위해서 앤시스 2021 R1 이상을 권장한다. 파이썬과 앤시스 모두 설치되어 있는 환경이라면 추가적으로 PyMAPDL 라이브러리를 설치해야 한다. 터미널 창에 ‘pip install ansys-mapdl-core’ 한 줄의 입력으로 쉽게 설치되며, 버전을 따로 지정하지 않을 경우 최신 버전으로 설치된다. PyMAPDL은 <그림 2>와 같이 ‘launch_mapdl’ 함수를 호출하여 사용한다. 이는 Mechanical APDL Product Launcher를 실행하는 것과 유사하다. 해당 함수를 활용할 때 입력 가능한 주요 인자들을 입력하여 작업 폴더 위치나 파일 이름, 계산 방식 및 라이선스 등을 지정할 수 있다.    그림 2. PyMAPDL 실행 명령어   기존에 APDL에서 육면체 형상을 모델링하여 요소를 생성하는 과정은 <그림 3>과 같이 작성되고, 동일한 작업을 PyMAPDL로는 <그림 4>와 같이 구성할 수 있다. 작성된 APDL과 PyMAPDL 명령어를 비교하면 형태가 매우 유사한 것을 볼 수 있다. 이 때 PyMAPDL은 파이썬에서 두 가지 방식으로 사용된다. 첫 번째는 ‘run’ 명령어를 활용하여 APDL 명령어를 스트링(string)으로 입력해 직접 실행하는 방법이며, 두 번째는 파이썬 명령어로 변환해서 처리하는 방법이다.   그림 3. MAPDL 모델링 및 요소 생성 예시   그림 4. PyMAPDL 모델링 및 요소 생성 예시     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2024-05-02
오픈AI CLIP 모델의 이해/코드 분석/개발/사용
BIM 칼럼니스트 강태욱의 이슈 & 토크   이번 호에서는 생성형 AI의 멀티모달 딥러닝 기술 확산의 계기가 된 오픈AI(OpenAI)의 CLIP(Contrastive Language-Image Pre-Training, 2021) 코드 개발 과정을 분석하고, 사용하는 방법을 정리한다.    ■ 강태욱 건설환경 공학을 전공하였고 소프트웨어 공학을 융합하여 세상이 돌아가는 원리를 분석하거나 성찰하기를 좋아한다. 건설과 소프트웨어 공학의 조화로운 융합을 추구하고 있다. 팟캐스트 방송을 통해 이와 관련된 작은 메시지를 만들어 나가고 있다. 현재 한국건설기술연구원에서 BIM/GIS/FM/BEMS/역설계 등과 관련해 연구를 하고 있으며, 연구위원으로 근무하고 있다. 이메일 | laputa99999@gmail.com 페이스북 | www.facebook.com/laputa999 홈페이지 | https://dxbim.blogspot.com 팟캐스트 | http://www.facebook.com/groups/digestpodcast CLIP은 구글이 개발한 자연어 번역 목적의 트랜스포머 모델, 비전 데이터 변환에 사용되는 VAE(Variational Autoencoder) 개념을 사용하여 멀티모달 학습 방식을 구현하였다. 이번 호에서는 그 과정을 설명하고 파이토치로 직접 구현하는 과정을 보여준다. CLIP을 이용하면 유튜브, 넷플릭스와 같은 영상에서 자연어로 질의해 해당 장면을 효과적으로 검색할 수 있다. 참고로, CLIP에서는 트랜스포머가 핵심 컴포넌트로 사용되었다. CLIP과 같이 트랜스포머가 자연어 번역 이외에 멀티모달의 핵심 기술이 된 이유는 비정형 데이터를 연산 가능한 차원으로 수치화할 수 있는 임베딩 기술의 발전과 트랜스포머의 Key, Query, Value 입력을 통한 여러 학습 데이터 조합이 가능한 특징이 크게 작용했다.    그림 1. 멀티모달 시작을 알린 오픈AI의 CLIP 모델(Learning Transferable Visual Models From Natural Language Supervision, 2021)   트랜스포머와 VAE를 이용한 멀티모달 CLIP 네트워크를 좀 더 깊게 파헤쳐 보도록 한다. 앞서 설명된 트랜스포머, 임베딩과 관련된 개념에 익숙하다면, CLIP을 이해하고 구현하는 것이 그리 어렵지는 않을 것이다.    CLIP에 대한 이해 오픈AI에서 개발한 CLIP 모델은 공유 임베딩 공간 내에서 이미지 및 텍스트 형식을 통합하는 것을 목표로 했다. 이 개념은 기술과 함께 이미지와 텍스트를 넘어 다른 양식을 수용한다.(멀티모달) 예를 들어, 유튜브 등 비디오 애플리케이션 내에서 텍스트 검색 성능을 개선하기 위해 공통 임베딩 공간에서 비디오 및 텍스트 형식을 결합하여 모델을 학습시켰다. 사실, 임베딩 텐서를 잠재 공간(Latent Space)으로 이기종 데이터를 변환, 계산, 역변환할 수 있다는 아이디어는 VAE 기술, 구글의 트랜스포머 논문(2017)을 통해 개발자들 사이에 암시되어 있었다. 이를 실제로 시도해본 연구가 CLIP이다.  참고로, CLAP(Contrastive Language-Audio Pretraining)은 동일한 임베딩 공간 내에서 텍스트와 오디오 형식을 통합하는 또 다른 모델로, 오디오 애플리케이션 내에서 검색 기능을 개선하는 데 유용하다. CLIP은 다음과 같은 응용에 유용하다. 이미지 분류 및 검색 : CLIP은 이미지를 자연어 설명과 연결하여 이미지 분류 작업에 사용할 수 있다. 사용자가 텍스트 쿼리를 사용하여 이미지를 검색할 수 있는 보다 다양하고 유연한 이미지 검색 시스템을 허용한다. 콘텐츠 조정 : CLIP은 부적절하거나 유해한 콘텐츠를 식별하고 필터링하기 위해 이미지와 함께 제공되는 텍스트를 분석하여, 온라인 플랫폼의 콘텐츠를 조정하는 데 사용할 수 있다. 참고로, 메타 AI(Meta AI)는 최근 이미지, 텍스트, 오디오, 깊이, 열, IMU 데이터 등 6가지 양식에 걸쳐 공동 임베딩을 학습하는 이미지바인드(ImageBind)를 출시했다. 두 가지 모달리티를 수용하는 최초의 대규모 AI 모델인 CLIP은 이미지바인드 및 기타 다중 모달리티 AI 시스템을 이해하기 위한 전제 조건이다. CLIP은 배치 내에서 어떤 N×N(이미지, 텍스트) 쌍이 실제 일치하는지 예측하도록 설계되었다. CLIP은 이미지 인코더와 텍스트 인코더의 공동 학습을 통해 멀티모달 임베딩 공간을 만든다. CLIP 손실은 트랜스포머의 어텐션 모델을 사용하여, 학습 데이터 배치에서 N개 쌍에 대한 이미지와 텍스트 임베딩 간의 코사인 유사성을 최대화하는 것을 목표로 한다.  다음은 이를 설명하는 의사코드이다. 1. img_en = image_encoder(I)   # [n, d_i] 이미지 임베딩 인코딩을 통한 특징 추출  2. txtxt_emdn = textxt_emdncoder(T)    # [n, d_t] 텍스트 임베딩 인코딩을 통한 특징 추출 3. img_emd = l2_normalize(np.dot(img_en, W_i), axis=1)    # I×W 결합(조인트) 멀티모달 임베딩 텐서 계산 4. txt_emd = l2_normalize(np.dot(txtxt_emdn, W_t), axis=1)  # T×W 결합(조인트) 멀티모달 임베딩 텐서 계산 5. logits = np.dot(img_emd, txt_emd.T) * np.exp(t)   # I×T * E^t 함수를 이용한 [n, n]코사인 유사도 계산 6. labels = np.arange(n) 7. loss_i = cross_entropy_loss(logits, labels, axis=0)  # 이미지 참값 logits과 예측된 label간 손실 8. loss_t = cross_entropy_loss(logits, labels, axis=1)  # 텍스트 참값 logits과 예측된 label간 손실 9. loss = (loss_i + loss_t)/2   # 이미지, 텍스트 손실 평균값   실제 오픈AI 논문에는 <그림 2>와 같이 기술되어 있다.(동일하다.)   그림 2     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2024-05-02
[케이스 스터디] 유니티 뮤즈의 텍스처/스프라이트 생성 및 파운데이션 모델
책임감 있는 AI 활용 및 향상된 모델 훈련   이번 호에서는 AI를 활용해 실시간 3D 콘텐츠를 제작하는 툴인 유니티 뮤즈(Unity Muse)에서 결과를 생성하는 방법을 설명하고, 유니티의 모델 훈련 방법론 및 새로운 파운데이션 모델 두 가지를 소개한다. ■ 자료 제공 : 유니티 코리아   유니티 뮤즈는 AI 기능을 바탕으로 사용자의 탐색, 아이디어 구상 및 반복 작업을 지원한다. 이러한 기능 중 텍스처(Texture) 및 스프라이트(Sprite)는 자연어와 시각적 입력을 애셋으로 변환한다. 뮤즈를 통해 유니티 에디터에 AI를 도입하면 아이디어를 가시적인 콘텐츠로 빠르게 구현할 수 있으므로, 비전을 더 손쉽게 실현할 수 있다. 프로젝트에 사용 가능한 실제 결과물로 변환할 수 있는 텍스트 프롬프트와 패턴, 색, 스케치를 이용하여 조정 및 반복 작업도 가능하다. 유니티는 뮤즈를 통한 스프라이트 및 텍스트 생성의 기반이 되는 AI 모델에 대한 훈련 기법을 혁신하는데 노력을 들였다. 이를 통해 안전하고 책임감 있으며 다른 크리에이터의 저작권을 존중하는 유용한 결과물을 제공하고자 한다.   AI 모델 훈련 유니티는 뮤즈의 텍스처 및 스프라이트 기능을 선보이면서, 유니티가 보유하거나 라이선스를 받은 독점 데이터를 기반으로 처음부터 훈련을 받은 두 가지 맞춤형 확산 모델도 개발하고 있다.   자체 콘텐츠 라이브러리 확장 데이터 증강은 유니티가 데이터 세트의 스케일과 다양성을 높이기 위해 사용하는 핵심 기술 중 하나로, 이 기술을 이용하여 유니티는 보유 중인 원본 데이터 샘플에서 많은 변형(variation)을 생성할 수 있다. 이러한 역량으로 훈련 세트를 더 풍부하게 만들 수 있으며, 모델이 한정된 샘플을 기반으로 일반화를 수행하는 기능을 향상할 수 있다. 아울러 지오메트리 변환, 색 공간 조정, 노이즈 삽입, 스테이블 디퓨전(Stable Diffusion) 같은 생성형 모델을 통한 샘플 배리에이션 등의 기법을 사용해 데이터 세트를 종합적으로 확장한다. 최근 스테이블 디퓨전과 관련하여, 본래 인터넷에서 수집된 데이터를 기반으로 훈련된 모델이라는 이유로 윤리적인 면에서 우려가 발생한 바 있다. 유니티는 뮤즈의 텍스처 및 스프라이트 기능을 제작하면서, 자체적으로 소유하고 책임감 있게 선별한 원본 데이터 세트를 기반으로 잠재적 확산 모델 아키텍처를 처음부터 훈련하는 방식을 통해 사전 훈련된 모델에 대한 의존도를 낮췄다. 데이터 증강 기법의 일부로 스테이블 디퓨전 모델의 사용을 최소로 제한해 안전하게 사용함으로써, 유니티가 보유한 원본 애셋 라이브러리를 강력하고 다양한 결과물의 저장소로 확장할 수 있었다. 이러한 결과물은 고유하고 독창적이며, 저작권을 가진 어떠한 아트 스타일도 포함하지 않는다. 유니티는 또한 추가로 완화 조치를 적용했으며, 뮤즈의 텍스처 및 스프라이트 기능에 사용되는 유니티의 잠재적 확산 모델을 위한 훈련 데이터 세트는 인터넷에서 수집된 어떤 데이터도 포함하지 않는다. 다음은 앞에서 설명한 증강 기법을 통해 확장되는 콘텐츠의 예시이다.   그림 1   <그림 1>은 원본 데이터 샘플(왼쪽 상단)과 복합적인 증강 기법으로 얻은 합성 배리에이션이다. 두 가지 모두 노이즈 기반(색 공간 조정, 위에서 아래로) 및 생성 기반(왼쪽에서 오른쪽으로)이다. 기존 데이터를 증강한 이후에도 여전히 다양한 소재에서 채워야 하는 부분이 있었다. 이 작업을 위해 행동에 의미 있는 변화가 나타날 때까지 자체 콘텐츠로 스테이블 디퓨전을 훈련시켰다. 또한 이러한 파생 모델을 사용하여 사전 필터링된 소재 목록으로 완전히 새로운 합성 데이터를 만들었다.(그림 2)   그림 2   실제 인력에 의한 검토와 LLM(대규모 언어 모델)을 사용하는 자동화된 추가 필터링을 이러한 소재 목록에 모두 적용함으로써, 유니티의 가이드 원칙을 위반하고 인식 가능한 아트 스타일, 저작권이 있는 머티리얼, 잠재적으로 유해한 콘텐츠가 전혀 포함되지 않은 데이터 세트를 만들겠다는 유니티의 목표에 맞지 않는 합성 이미지가 생성될 가능성을 차단했다. 그 결과 증강되고 완전한 대규모의 합성 이미지 데이터 세트 두 개가 만들어졌고, 여기에는 원치 않는 콘셉트가 포함되지 않았다는 확신이 있었다. 하지만 그러한 확신에도 불구하고, 유니티는 더 많은 필터링을 추가해 모델의 안전성을 보장하고자 했다.   안전하고 유용한 결과물을 위한 추가 데이터 필터링 가장 중요한 사항은 안전 및 개인정보와 부정적인 영향 없이 사용자를 지원하는 툴의 제공이었으므로, 유니티는 추가 데이터 세트 필터링을 위한 별도의 분류기 모델을 개발했다. 이 모델을 사용한 결과, 데이터 세트에 포함된 모든 콘텐츠가 유니티의 AI 원칙에 명시된 표준을 충족하고 추가적인 이미지 품질 검사를 통과할 수 있었다. 리뷰어 모델은 합성 이미지에서 다음 사항을 식별하는 역할을 함께 담당했다. 인식 가능한 사람의 특징이 포함되어 있지 않음 일반적이지 않은 어떤 아트 스타일도 포함되어 있지 않음 어떤 IP 캐릭터나 로고도 포함되어 있지 않음 허용될 수 있는 수준의 품질을 갖추고 있음 4개의 리뷰어 모델이 요구하는 신뢰도 높은 임계 수준을 하나라도 통과하지 못하는 이미지는 데이터 세트에서 폐기되었다. 가장 높은 신뢰도를 보이는 이미지만 필터를 통과해 최종 데이터 세트에 합류할 수 있도록 철저하게 주의를 기울이며, 모델의 결격 사유를 엄격하게 평가했다.   모델 소개 유니티의 유나이트 이벤트에서 뮤즈의 텍스처 및 스프라이트 기능에 대한 얼리 액세스가 발표되었다. 이러한 툴을 지원하는 모델의 첫 번째 반복 수정을 내부적으로 ‘Photo-Real-Unity-Texture-1’ 및 ‘Photo-Real-Unity-Sprite-1’이라고 한다. 이는 스타일화에 대한 기초적인 이해만 갖추도록 설계된 모델로, 주로 포토리얼리즘에 집중되어 있다. 모델을 프로젝트의 기존 스타일에 맞게 가이드하고 싶다면, 유니티의 스타일 훈련 시스템에 약간의 고유 레퍼런스 애셋을 제공하여 콘텐츠를 특정 아트 스타일로 생성하는 방법을 모델에 학습시킬 수 있다. 그렇게 하면 결과물 가이드를 위해 메인 모델과 함께 작동하는 소규모의 후속 모델이 생성된다. 이 소규모 후속 모델은 훈련 담당자나 그 조직에 공개되지 않으며, 유니티는 메인 모델 훈련에 이 콘텐츠를 사용하지 않는다. 포토리얼리즘에 중점을 두는 모델이기 때문에 유니티는 메인 모델을 수많은 다양한 스타일로 훈련시킬 필요가 없었다. 이 아키텍처를 통해 더 손쉽게 책임감 있는 AI를 향한 유니티의 약속을 지키면서 메인 모델을 훈련시킬 수 있으며, 크리에이터가 아트 수준을 더 세부적으로 제어하도록 할 수 있다. 이러한 모델은 시작에 불과하다. 뮤즈의 스마트한 역량은 점점 더 향상되어 더 나은 결과물로 이어질 것이며, 유니티는 그러한 과정에서 모델 향상 로드맵을 통해 모델을 더 높은 완성도로 이끈다는 비전을 내세운다.   Photo-Real-Unity-Texture-1 로드맵 유니티의 텍스처 모델은 모든 분야에서 유용하게 쓰일 수 있다. 큰 규모의 콘셉트를 인식하고 있으며, 이러한 모델을 통해 서로 관련이 없는 여러 콘셉트를 자유롭게 혼합하고 <그림 3>에서 볼 수 있는 ‘메탈 슬라임’ 또는 ‘파란색 크리스탈 유리 암석’ 같은 결과물을 구현할 수 있다.   그림 3   이 모델이 현 단계에서 유용하기는 하지만, 다양한 프롬프트와 입력 방식에 어떻게 반응하는지 학습해 본 결과 단일 단어로 구성된 프롬프트로는 고급 머티리얼 콘셉트를 구현하기 어려울 수도 있다는 사실을 알 수 있었다. 원하는 목표에 맞게 모델을 가이드하는 데에 도움이 되는 방법이 더 있지만, 유니티는 기본 프롬프트의 정확도를 높이고 새로운 모델 가이드 방법을 추가하는 방식으로 사용자가 모델을 계속 더 자유롭게 제어할 수 있도록 할 예정이다. 앞으로 컬러 피커, 추가적인 사전 제작 가이드 패턴, 자체 가이드 패턴 생성을 위한 개선된 시스템 및 기타 새로운 시각적 입력 방법을 추가할 계획이며, 이 모든 사항은 현재 실험 단계에 있다. Photo-Real-Unity-Texture-1에서 유니티가 가장 중점을 두는 사항은 성과가 저조한 머티리얼 콘셉트를 식별하고 모델 재훈련을 자주 실행하여 전반적인 품질과 기능을 지속적으로 개선하는 것이다. 툴 내 평가 시스템을 통한 사용자의 피드백은 유니티가 모델 기능에서 취약점을 식별하여 더 나은 툴을 만드는 데 도움이 된다. 유니티는 빈도 높은 훈련 일정으로 모델을 빠르게 개선하고, 모델의 사용성을 높이며, 머티리얼 분야에 대한 지식을 축적하고 있다.   Photo-Real-Unity-Sprite-1 로드맵 Photo-Real-Unity-Texture-1과 유사하게 유니티의 기본적인 스프라이트 모델은 전반적으로 유용하며 많은 콘셉트를 인식한다. 툴에 아직 빌트인 애니메이션 기능이 없기 때문에, 유니티는 초기에는 가장 흔하게 사용되는 정적 스프라이트 콘셉트의 품질을 극대화하는데 주력하기로 했다. 기본 모델의 원시 결과물을 <그림 4>에서 확인할 수 있다. 일반적인 사용 사례에서 이는 사용자 훈련 모델에 의해 특정 아트 스타일에 맞게 조정된다.   그림 4   정적 오브젝트는 이미 안정적이지만 유니티는 동물과 인간의 해부학적 정확도를 개선하기 위해 계속 노력하고 있다. 이러한 유형의 소재를 사용할 때 결과가 바람직할 수도 있지만, 사지가 늘어나거나 누락되는 경우 또는 안면이 왜곡되는 경우가 발생할 수도 있다. 이는 책임감 있는 AI 및 사용 가능한 데이터에 대한 엄격한 제한을 지향하는 유니티의 조치에 따른 부작용이라고 할 수 있다. 유니티는 개인정보 보호와 안전을 중요하게 인지하고 있으며, 이로 인해 초기 얼리 액세스 릴리스에서 일부 소재의 품질이 완벽하지 않을 수 있다. 완전히 공백인 스프라이트가 생성될 수도 있으며, 이는 시각적 콘텐츠 검수 필터에 따른 결과이다. 유니티는 Photo-Real-Unity-Sprite-1의 초기 출시 버전에서는 출력 필터링에 관해 신중하게 접근하는 방향을 택했으며, 이로 인해 일부 아트 스타일의 경우 필터링에서 1종 오류가 발생할 수 있다. 유니티는 지속적으로 피드백을 수렴하고 콘텐츠 필터를 개선하면서 점차 제한을 완화할 계획이다. 유니티는 피드백을 수렴하고 책임감 있는 자세로 계속 더 많은 데이터를 소싱하면서 전반적으로 모든 소재의 품질이 빠르게 향상될 것으로 기대하고 있다. Photo-Real-Unity-Sprite-1에도 Photo-Real-Unity-Texture-1과 유사하게 철저한 훈련 일정이 적용될 예정이다.   AI 강화 개발을 향한 유니티의 행보 뮤즈는 책임감 있고 타인의 독창성을 존중하는 방식으로 생성형 AI의 잠재력을 활용해 커뮤니티에 더 강력한 창작물 제어 권한을 부여하려는 유니티의 첫걸음이다. 이 제품은 사용자를 우선으로 고려하여 제작되었으며, 유니티는 사용자의 피드백을 기반으로 변화와 개선을 진행할 예정이다. 유니티는 콘텐츠 제작 업계에서 생성형 AI가 가지는 잠재적 영향력을 인식하며 중요하게 다루고 있다. 이 툴은 크리에이터를 대체하는 것이 아닌, 크리에이터의 역량을 강화하기 위한 노력의 결과이다. 유니티는 크리에이터가 더 많아질수록 세상은 더 매력적인 곳이 될 것이라고 믿으며, 뮤즈와 이를 지원하는 모델을 통해 이러한 사명을 계속 이어간다는 비전을 제시한다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2024-05-02
[포커스] 빌드스마트포럼 2024, Al와 메타버스의 시너지로 변화하는 AEC 탐구
빌딩스마트협회는 4월 16일 논현동 건설회관 대회의실에서 빌드스마트 포럼(buildSMART FORUM) 2024를 개최했다. 빌드스마트 포럼 2024에서는 ‘변화하는 AEC : 생성형 Al와 메타버스의 시너지’라는 주제 아래 최근 화제로 떠오르고 있는 생성형 AI와 메타버스가 AEC에서 어떻게 활용되고 있고, 앞으로는 어떻게 발전하며, 업계에서는 어떻게 대응해야 하는지 확인하는 자리를 가졌다. ■ 최경화 국장     이번 포럼에서는 카이스트 손훈 교수, DL이앤씨 이상영 담당, 카이스트 김영철 교수가 기조연설을 진행하였으며, 데이튼대학의 김남균 교수, 에스엘즈 정재헌 대표, 수민함디자인의 함수민 대표, 홍콩폴리텍대학 키이춘(KEE Yee Chun) 교수, 홍콩시립대 하오정(Hao Zheng) 교수 등이 국내외의 다양한 AI 및 메타버스, 그리고 스마트건설 사례와 가능성에 대하여 발표했다.  빌딩스마트협회 안대호 회장은 “다양한 조건을 고려하여 최적의 설계를 도출할 수 있는 생성 Al와 가상공간에서의 협업을 가능케 하는 메타버스 기술의 접목은 시간과 비용을 절감하면서도 혁신적으로 설계 및 시공 프로세스를 개선할 것이다. 이를 통해 우리 산업의 디지털 전환속도를 더욱 가속화하고 획기적인 변화를 만들어낼 수 있을 것으로 기대한다”면서, “이번 포럼이 AEC 산업 변화의 기폭제가 되기를 바란다”고 말했다.   콘퍼런스 주요 발표 소개  DL이앤씨 이상영 담당은 “DL은 2009년부터 BIM을 도입했고, 2017년부터는 BIM으로 건설관리 혁신을 위한 본격적인 노력을 시작했다. 공사관리, 원가관리, 설계관리, MEP 등 다양한 분야에서 건설을 혁신할 수 있는 BIM 시스템을 개발했고, 개발된 시스템을 현업과 프로젝트에 적용하고 있다”고 소개했다.  BIM 시스템을 개발함에 있어서 추구하는 원칙은 개발이 완료되면 즉시 현업에 적용하고 사용 가능한 현실적인 시스템이어야 한다는 것이다. 그렇게 하기 위해서는 내재화하여 만들어져야 하고, 비용 측면에서는 신기술임에도 기존 비용과 동등 이하로 책정되어야 하며, 프로세스 측면에서는 동등 이하의 시간이 소요되어야 한다. 이를 위해 BIM 조직을 갖추고, 비용 절감을 위한 자동화와 공급망을 구축하며, 중요 알고리즘의 기획을 내부 인력으로 자체적으로 수행하고 있다고 밝혔다.  또한 “이제부터는 DL이앤씨가 직접 만든 BIM과 스마트 기술을 내부에서만 활용하는 것이 아니라 활용 범위를 확장하여 건설사의 비즈니스 모델이 신축공사에 치중되어 있는 현실을 타파하고, 스마트 건설 서비스로 사업 영역을 확대하여 대한민국의 건설 기술을 한 단계 성장시키고 건설사의 새로운 수익 모델을 창출하는데 이바지해 나갈 것”이라고 밝혔다. 한국과학기술원 김영철 부교수는 최근 KAIST 스마트시티연구센터와 KAIST 도시설계연구실에서 인공지능을 도시 분석과 도시 설계에 접목하려는 시도의 연구 결과를 소개했다. 그리고, 새롭게 개발되고 발전하는 인공지능 기술은 도시 분석과 설계 분야에도 많은 변화를 줄 수 있어 효과적으로 활용하기 위해서는 적극적 고려가 필요하다고 밝혔다.  한국과학기술원 손훈 교수는 지난 30년간 스마트 센싱 기술 연구 개발, 현장 적용, 실용화 및 상용화를 수행하면서 개인적으로 취득한 경험 및 앞으로 스마트 센싱 기술의 상용화를 위해 노력해야 하는 부분에 대해서 소개했다. 에스엘즈 정재헌 대표는 AEC 분야에서 알고리즘의 단순연산율 넘어 ‘Al를 통해 무엇을 만들고 의미를 담을지에 대한 고민의 흔적을 소개했다. 첫 번째로 연산과 검측, 예즉 가능한 Al를 만드는 긴 여정을 소개하고, 두 번째로 연산 결과물의 자동생성 과정을 자체 개발한 GE/SE 알고리즘 사례, CPU와 GPU 병렬연산을 통한 BIM 자동생성 전략에 대해 소개했다. 이와 함께 Al로 생성된 결과물들을 시각화 및 AR 내에서 동작하는 방법을 통해 시공성과 현장성을 높이는 기술에 대해 발표했다.     빌딩스마트협회 정기총회 개최와 주요 사업 소개 빌딩스마트협회는 제27회 정기총회를 개최하고, 안대호 회장(나우동인건축사사무소 대표)을 연임하기로 의결했다.  빌딩스마트협회는 한국공항공사 ‘공항시설정보 통합관리시스템(KAC-BIM)’ 기반체계 구축용역(2021. 7~2024. 3), 인공지능 기반의 건축설계 자동화 기술개발(2021. 4~2025. 12), 광역단위 노후건축물 디지털 안전워치 기술개발(2022. 4~2025. 12) 등 연구 사업들을 진행하고 있으며, BIM AWARD, 콘퍼런스와 포럼, 교육 및 자격 사업 등을 진행하고 있다.      ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2024-05-02
[케이스 스터디] 최신 렌더링 기능의 사용 돕는 URP 3D 샘플
고품질 그래픽스의 효율적인 제작 및 스케일링 방법 제시   많은 스튜디오에서 유니티(Unity)와 URP(유니버설 렌더 파이프라인)를 사용해 다양한 플랫폼에서 실행되는 다양한 장르와 시각적 스타일의 게임을 제작해 왔다. 그럼에도 입문자는 물론 숙련된 사용자조차 레퍼런스 설정에 어려움을 겪기도 한다. 유니티는 정확도 높은 렌더링에 도움이 되는 HDRP 3D 샘플을 2021년 출시했으며, 2023년 11월에는 유나이트 2023 기조 연설에서 URP 3D 샘플의 출시를 발표했다. 다양한 아트 스타일, 렌더링 경로, 신(scene) 복잡도로 구성된 4가지 환경이 담긴 이 샘플을 통해 여러 플랫폼에서 고품질 그래픽스를 제작하고 스케일링하는 방법을 배울 수 있다.  유니티는 저사양 및 고사양 모바일, PC, 콘솔, VR에서 시각적 매력이 돋보이는 경험을 제공하여 URP를 제대로 학습하고 사용할 수 있도록 지원할 계획이다. ■ 자료 제공 : 유니티 코리아     유니티가 공개한 URP 3D 샘플은 타깃 하드웨어에 맞춰 효율적으로 게임을 제작하고, 최적화하고, 스케일링할 수 있도록 설계되었다. 포워드+ 렌더링, 데칼, 렌즈 플레어, PBR(물리 기반 렌더링) 머티리얼, 셰이더 그래프, 볼륨, 포스트 프로세싱 같은 최신 URP 기능을 사용하는 방법도 익힐 수 있다. 이 샘플을 사용하려면 유니티 2022 LTS가 필요하며, 유나이트에서 함께 발표된 차기 릴리스인 유니티 6에서 추가 지원이 제공될 예정이다. 유니티 6는 렌더 그래프, GPU 기반 드로어와 더불어 STP(공간 포스트 프로세싱)라는 크로스 플랫폼 시간적 업스케일러 등의 강력한 신규 URP 기능도 포함된다. 이 샘플은 유니티 허브(Unity Hub)에서 다운로드할 수 있다.   터미널     터미널 신은 PBR 머티리얼과 사실적인 조명이 특징인 SF 스타일의 건물을 배경으로 한다. 터미널에서는 나머지 세 개의 신으로 텔레포트할 수 있다. 정원, 우주선 콕핏, 오아시스 신은 서로 다른 아트 스타일로 URP 기능을 선보이도록 제작되었다. 터미널은 중립적인 배경과 조명 덕분에 룩 디벨롭먼트(look development)용으로 애셋을 배치하기 가장 좋은 신이다. 이 신은 셰이더 그래프로 제작된 다양한 커스텀 셰이더(물, 텔레포트 표지판)와 두 신 사이를 전환할 수 있는 텔레포트 등의 고급 효과가 적용되어 있다. 경사로를 따라 텔레포트 기기 위의 유니티 로고에 몇 초간 초점을 맞추면 세 개의 신으로 이동할 수 있다.(플레이 모드 필요)   정원     이 밤의 정원은 일본 쇼인즈쿠리에서 영감을 받아 제작된 스타일라이즈드 신이다. 스피드트리(SpeedTree)로 생성된 아름다운 초목, 유기적으로 연결된 인테리어, 굽이치는 개울, 신규 포워드+ 렌더 경로로 기존 광원 수 제한을 뛰어넘는 수많은 장식용 광원으로 이루어져 있다. 정원 신은 저사양 모바일 기기부터 고사양 플랫폼까지 스케일링할 수 있도록 최적화되어, URP의 역량을 효과적으로 선보이는 환경이다. 예를 들어 어떻게 셰이더 그래프의 커스텀 함수 노드로 셰이더를 최적화하고, 초목에 커스텀 반투명도를 적용하고, 광원 쿠키(light cookies)로 조명을 최적화하거나 그림자를 시뮬레이션했는지 알아볼 수 있다.   오아시스     오아시스는 컴퓨팅 성능을 갖춘 고사양 플랫폼에 맞는 고급 셰이더를 선보이기 위해 실사에 가깝게 제작된 환경이다. 데칼, 렌즈 플레어, PBR 머티리얼, 복잡한 커스텀 셰이더 그래프 셰이더가 모래, 물, 안개, 초목에 적용되었다. 플랫폼의 GPU 성능이 높으면 URP로 더 높은 수준의 비주얼을 구현할 수 있음을 보여 준다.   콕핏     우주선의 조종석에 탑승하여 두 진영 간의 치열한 전투에 참여하는 긴장감 넘치는 환경이다. 이 고도의 스타일라이즈드 환경에는 셰이더 그래프의 커스텀 조명 모델이 사용되며, 특히 메타 퀘스트 2(Meta Quest 2) 같은 고성능 VR 헤드셋의 요구 사항을 충족하도록 구현되었다.   URP 3D 샘플 시작하기     유니티 허브에서 Unity 2022.3.12f1을 설치한다. 새 프로젝트를 생성하고 ‘3D Sample Scenes(URP)’를 선택한다. 오른쪽 패널에서 ‘Download template’ 버튼을 클릭한 다음 ‘Create project’를 클릭한다. 프로젝트가 에디터에 로드된다.(첫 임포트 시 몇 분 정도 소요될 수 있음) 유니티를 처음 사용하는 경우, 유니티를 구독하면 URP의 모든 기능을 활용하고 게임 콘솔처럼 다양한 기기에 배포할 수 있다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2024-04-01
유니티, 개발자 이벤트 ‘U Day Seoul’ 5월에 개최
유니티가 국내 개발자들을 대상으로 유니티의 최신 핵심 기술 및 로드맵, 활용 사례를 선보이는 ‘U Day Seoul’을 오는 5월 22일 판교 경기창조혁신센터에서 개최한다고 밝혔다. 이번 ‘U Day Seoul’은 5월 22일, 23일 양일간 유니티 코리아 공식 유튜브 채널을 통해 라이브 스트리밍되며, 사전 신청자는 무료로 참여 가능하다. 이번 행사는 총 20여 개의 기술 세션, 핸즈온 트레이닝 등의 다양한 프로그램으로 구성되어 있으며, 참가자들에게는 국내외 유니티 엔진 전문가들과 소통하고 최신 정보를 공유할 수 있는 기회가 제공된다.     주요 강연으로는 유니티의 김범주 APAC 애드버킷 리드가 소개하는 콘텐츠 제작을 간소화하는 신규 AI 플랫폼인 ‘유니티 뮤즈(Unity Muse)’에 관한 세션과 케이지로 다카하시(Keijiro Takahashi) 애드버킷이 소개하는 ‘런타임 사용을 위한 Unity UI Toolkit’, ‘산나비’로 ‘메이드 위드 유니티 코리아 어워드’에서 ‘베스트 스튜던트’ 부문에 선정된 바 있는 원더포션의 ‘인디 게임 개발기’ 등이 있다. 5월 23일에는 '유니티 센티스(Unity Sentis)' 및 DOTS(Data-Oriented Technology Stack), ECS(Entity Component System) 등 유니티 최신 기술을 활용해 게임 및 콘텐츠 개발을 배워볼 수 있는 ‘트레이닝 데이’도 별도의 신청을 통해 진행될 예정이다. 유니티 사용 중급 이상의 세션 난이도로 진행될 예정으로, 각 세션에는 김한얼 시니어 소프트웨어 엔지니어와 박우진 테크니컬 파트너 어드바이저, 오형규 유니티 테크니컬 트레이너가 참여해 강연 및 실습을 도울 예정이다. 유니티 코리아의 송민석 대표는 “유니티 국내 개발자들에게 유익한 정보를 제공하기 위해 다양한 강연을 마련했다”며, “이번 행사를 통해 소개된 새로운 기술과 활용 사례가 추후 개발자들의 개발 환경에서 더욱 유용하게 활용될 수 있도록 지속적으로 기여할 것”이라고 말했다.
작성일 : 2024-04-01
유니티, 마쓰다와 파트너십 맺고 자동차 HMI·GUI의 혁신 지원
유니티가 마쓰다 모터 코퍼레이션과 파트너십을 체결하고 운전자에게 보다 원활한 도로 주행 경험을 제공할 차세대 차량 내 경험을 개발한다고 발표했다. 이번 계약은 운전석 HMI(휴먼-머신 인터페이스) 분야의 지속적인 발전을 위한 마쓰다의 연구 개발 노력의 일환이며, 개발될 GUI는 2025~2027년 이후 출시 예정인 마쓰다 자동차 모델에 적용될 예정이다. 유니티 인더스트리와 런타임(Runtime)은 차량 내 운영 체제 통합을 비롯해 마쓰다의 HMI 및 GUI(그래픽 사용자 인터페이스) 개발을 지원하는데 사용될 예정이다. HMI/GUI 개발에 유니티를 활용하면 설계부터 엔지니어링까지 자동차 개발의 여러 단계에서 사용되는 다양한 디지털 툴을 원활하게 통합하여, 재작업을 줄이고 운영 효율성을 높일 수 있다. 마쓰다는 유니티로 제작되고 최적화된 애플리케이션을 차량 내 기기에 임베드함으로써 고객에게 더욱 매력적이고 직관적인 고성능 기능을 제공할 수 있을 것으로 기대하고 있다.     마쓰다의 통합 제어 시스템 개발 담당 임원인 이마다 미치히로는 “운전석 HMI 분야에서 마쓰다는 ‘사람 중심’이라는 개발 콘셉트를 바탕으로 사람과 자동차 간의 인터페이스를 지속적으로 발전시켜 흥미로운 모바일 경험을 제공할 것이다. 특히 사람의 직관적인 조작을 지원하고 차량의 새로운 가치를 창출함으로써 안전성과 편의성을 더욱 향상시키는 데 도전할 것”이라면서, “유니티와 협력하여 운전석 HMI에 GUI 솔루션을 제공하고, ‘사람 중심’의 차량 엔지니어링이라는 마쓰다의 목표를 앞당기고자 한다. 마쓰다는 앞으로도 ‘사람 중심’의 핵심 가치를 바탕으로 ‘운전의 즐거움’을 추구하고, 고객의 일상에서 감동적인 경험을 창출하여 ‘생활의 즐거움’을 선사하는 것을 목표로 할 것”이라고 전했다. 유니티는 지난 5년 동안 자동차 산업의 발전을 지원하는 실시간 3D 플랫폼을 여러 차례 구현해 왔다. 유니티는 마쓰다와 함께 HMI의 발전을 지원할 뿐만 아니라 실시간 3D 기술이 자동차 제조업체의 장기적인 혁신 계획을 어떻게 지원할 수 있는지 보여줄 예정이다. 유니티의 줄스 슈마커(Jules Shumaker) 크리에이티브 부문 최고 매출 책임자는 “유니티의 첨단 기술은 마쓰다가 운전자의 요구를 우선시하는 동시에 모든 탑승자에게 최적의 주행 경험을 제공하는 새로운 혁신을 만들어가는 데에 기여할 것”이라면서, “유니티 기술을 기반으로 향상된 안전 기능, 더욱 직관적이고 사용자 친화적인 인터페이스, 몰입형 엔터테인먼트, 보다 개인화된 주행 경험을 통해 효율성과 디지털 혁신을 강화하는 마쓰다의 장기적인 계획을 지원할 수 있기를 기대한다”고 말했다.
작성일 : 2024-03-07
SIMTOS 2024 / Day 2 4.5(금) - 뿌리산업 컨퍼런스 발표자 및 발표 내용 소개
SIMTOS 2024 - 캐드앤그래픽스 주관 컨퍼런스 4월 5일(금) - 뿌리산업 컨퍼런스 발표자 및 발표 내용 소개 1. 미래 산업환경 대응 지능화 뿌리기술 한국생산기술연구원 최태훈 연구소장 [강연 내용] 뿌리산업은 거의 모든 전방산업의 공급망에 필수적으로 포함되어 있는 국가 필수 산업이지만, 현재 뿌리산업은 저수익성과 인력난, 지역 소멸 등의 위기에 처해 있다. 뿌리산업이 미래 산업과 시장 환경에 대응하기 위한 방안과 한국생산기술연구원의 중점 연구 개발 분야를 소개한다. [약력] 2022.10.1 ~ 현재 한국생산기술연구원 지능화뿌리기술연구소장 2012.9.3 ~ 2021.9.2 한국이스라엘산업연구개발재단 사무총장 2010.1.1 ~ 2012.9.2 한국생산기술연구원 녹색전환기술센터장 2. 스마트 팩토리 구축 여정과 사례 LG전자 송시용 상무 [강연 내용] LG의 스마트팩토리 구축 여정과 사례를 소개하고, 올바른 접근방향에 대한 의견을 제시하고자 한다. [약력] LG전자 생산기술원에 입사하여, “Dream Factory Designer”로서의 비전과 꿈을 가지고 LG그룹의 신공장 설계 / 검증, 운영 효율화 영역 중심으로 엔지니어부터 시작하여 조직 관리자까지 경험을 쌓아 왔고, 현재는 외부 고객사 대상으로 LG가 보유한 등대공장 구축 노하우를 기반으로 스마트팩토리 기획부터 구축 / 운영까지 지원하는 사업을 담당하고 있다.   3. 현대자동차 HMGICS 스마트팩토리 구축 사례 소개 현대자동차 최영태 상무 [강연 내용] 현대차 그룹 최초의 스마트팩토리인 HMGICS(현대차그룹 싱가포르 혁신센터, Hyundai Motor Group Innovation Centre Singapore)에 대한 주요 현황과 향후 추진 방향성에 대해 소개한다.   [약력] ‘95 ~ 차량생기팀 (울산) ’10 ~ 북경현대기차유한공사 ’19 ~ 설비기술개발실(의왕-HMGICS건설 등) ’21 ~ 환경차생기개발실(의왕-연료전지,배터리,구동모터 등) ’23 ~ 스마트팩토리개발실(의왕-자동화,AI,DT,PHM,통신 등)   4. 공작기계의 역사와 제조업의 과거와 미래 에스엔에이치 민태기 연구소장, 작가 [강연 내용] 인류 문명의 혁신을 이끈 ‘마더머신’이라 불리는 공작기계를 통해 제조업의 미래를 조망한다. [약력] 서울대학교 박사 미국 UCLA 및 삼성전자 연구원 ㈜에스엔에이치 연구소장   5. 산업 R&D 정책 방향 산업통상자원 R&D 전략기획단 임영목 MD   [강연 내용] 대내외 환경변화에 따라 산업부도 산업·에너지 연구개발 4대 혁신방안을 추진한다. 세계 최고 수준의 도전적 연구개발, 대형과제 중심 사업체계로 개편, 수요자 중심의 연구개발 프로세스, 미래세대 연구자 성장지원 등 혁신방안의 주요 골자를 소개한다. [약력] 前)한국재료연구원 본부장 前)한국산업기술기획평가원 금속재료PD 前)산업통상자원 R&D 전략기획단 소재부품MD   컨퍼런스 상세 내용 보러가기
작성일 : 2024-03-04
SIMTOS 2024 / Day 1 4.4(목) - 디지털 제조 컨퍼런스 발표자 및 발표 내용 소개
SIMTOS 2024  - 캐드앤그래픽스 주관 컨퍼런스 Day 1 4.4(목) - 디지털 제조 컨퍼런스 발표자 및 발표 내용 소개 1. 스마트 제조혁신과 디지털 트윈  KIAST 장영재 교수 [강연 내용] 디지털 트랜스포메이션 기반의 스마트 제조혁신을 위한 전략적 방향을 정리하고,  스마트 제조의 핵심기술인 CPS 및 디지털 트윈의 성공적 응용 방향을 제시하고자 한다. [약력] MIT공대 기계공학 박사 현) KAIST 산업 및 시스템 공학과 교수 다임리서치㈜ Founder & CEO 2. ChatGPT 1년, 초거대 AI가 불러온 변화와 우리의 전략 네이버 클라우드 하정우 센터장 [강연 내용] ChatGPT가 공개된지 1년이 훌쩍 넘는 동안 전세계적으로 생성AI가 큰 패러다임 변화를 가져오고 있다. 이번 강연에서는 글로벌 초거대 AI 기술 트렌드와 우리나라 경쟁력에 대해 소개하고자 한다. [약력] 현) 네이버 클라우드 센터장 네이버 클라우드 AI 혁신의 수장이자 장기적인 AI 연구, AI 안전 및 글로벌 AI 생태계 전략을 책임지는 네이버 미래 AI 센터의 수장으로 일하고 있다. 서울대학교에서 컴퓨터공학으로 학사와 박사 학위를 취득했으며, 2015년 네이버 랩스에 연구원으로 입사했다. 2015년부터 클로바 AI 연구의 리더이자 네이버 AI 랩의 수장으로 일했다. 3. 조선산업의 설계-생산 일관화된 디지털 생산 플랫폼 구축 전략과 현황 현대미포조선 김희원 상무 [강연 내용]  미래 조선산업의 핵심경쟁력 확보를 위해 HD현대에서 추진하고 있는 선박의 설계부터 생산까지 모든 데이터를 하나의 플랫폼으로 관리하는 디지털 트윈 기반의 통합 디지털 생산 플랫폼(Digital Manufacturing Platform) 구축에 대한 전략과 진행 현황을 설명하고자 한다. [약력] 현) 현대미포조선 상무, 디지털생산혁신센터 센터장 전) HD한국조선해양 미래기술연구원 제조혁신랩 부문장 전) HD현대중공업 기술컨설팅센터 센터장   4. 절삭 가공 산업의 AI기반 자율제조 DN솔루션즈 이병곤 부사장 [강연 내용] 반도체 산업과 자율주행을 비교하여 자율제조의 정의나 요구 사항들을 정리하고, 절삭 가공 산업에서의 자율 제조를 구현하기 위한 기술적 요소, Architecture 및 AI 역할을 설명하며, 구현 방식 및 방향성을 제시하고자 한다. [약력] 디엔솔루션즈 ME사업본부장 (부사장) 겸) 제조혁신 TF 장 ASML Digital Platform/Automation Product Manager (전무) 미라콤 (대표이사) 삼성SDS G-MES 개발 및 Smart Factory 사업 개발 (상무) Applied Materials 신규 사업 개발 (Senior Manager)   5. 제조 혁신의 미래, 디지털 트윈 추진 사례 포스코DX 김미영 상무 [강연 내용] 제조업의 당면 이슈 해결을 위한 솔루션으로서의 디지털트윈의 개념과 구현 기술을 설명하고, 국내 1호 등대공장 포스코의 Digital Twin 추진 사례에 대해 소개하고자 한다. [약력] 2022~현재. 포스코DX 기술연구소장, Digital Twin, 무인화/자동화 등 DX기술 개발 총괄 (경상북도 디지털플랫폼정부위원회(DPG) 위원, 중기부 데이터표준화가버넌스위원회 위원, 과학기술회(NST) 감사자문위원회 위원)  2015~2021. 포스코 Smart Factory 구축, Smart Factory Platform(PosFrame) 개발, 포스코대상(올해의 포스코인상) 수상(‘18) (중기부 AI 제조데이터 전략위원회 자문위원, 중기부 스마트공장 등대공장 연구위원회 연구위원)   컨퍼런스 상세 내용 보러가기
작성일 : 2024-03-04
[케이스 스터디] 디지털 트윈을 통한 벤쿠버 국제공항의 혁신
공항 전반의 운영 개선과 지속가능성 목표 달성   항공 여행의 양상이 빠르게 바뀌는 시대에 맞춰 공항은 운영 및 서비스를 개선하고 ESG(환경, 사회 및 기업 지배 구조) 목표를 충족할 방안으로 디지털 전환에 기대를 걸고 있다. 밴쿠버 국제공항(YVR) 같은 대형 공항은 디지털 트윈 기술을 빠르게 도입하여 운영을 개선하고, 지속가능성과 화합 목표를 달성하며, 미래의 일자리를 창출하고 있다. ■ 자료 제공 : 유니티 코리아     공항은 물리적 애셋, 프로세스, 시스템, 환경의 동적 가상 사본인 디지털 트윈을 사용해 정보에 입각한 의사 결정을 내리고, 운영 효율성을 대폭 높여 다음과 같은 효과를 얻을 수 있다. 여객 흐름을 정확하게 예측해 가장 필요한 곳에 리소스를 할당한다. 실제 환경에 구현하기 전에 다양한 시나리오를 테스트하고 변경 사항을 적용해, 큰 비용이 들 수 있는 문제를 사전에 방지한다. 항공편 및 수하물 정보, 보안 검색대 대기 시간 등 여러 소스에서 데이터를 수집하고 분석하여 운영을 최적화한다.   밴쿠버 공항 공사의 디지털 트윈 사용 사례 공항 운영을 재구성한다는 비전에 따라, 밴쿠버 공항 공사는 유니티의 프로페셔널 서비스 그룹과 협력하여 북미 공항의 실시간 3D 디지털 트윈을 시장 최초로 제작하고 배포했다. 공항의 일선 근무자, 디자이너, 커뮤니티를 위해 인간 중심의 기술로 제작된 밴쿠버 국제공항의 디지털 트윈은 과거 데이터와 실시간 데이터를 활용하며, 2D 및 3D 시각화를 통해 주요 정보를 제시할 수 있다. 따라서 복잡한 운영 시스템에 대한 이해를 넓히고, 프로세스를 간소화하며, 공항의 주요 이해관계자 간의 협업을 가속화할 수 있다. 밴쿠버 국제공항의 활주로와 터미널 디지털 트윈은 공항 운영을 전반적으로 향상할 뿐만 아니라 이들의 기후 및 화합 목표를 달성하는 데 도움이 된다.   공항 전반의 운영 향상 캐나다 브리티시컬럼비아 주에서 가장 큰 건물이자 북미에서 매우 분주하기로 유명한 공항인 밴쿠버 국제공항은 24시간 원활하고 효율적인 운영을 위해 프로세스를 다양한 측면에서 고려해야 한다. 이러한 문제를 해결하기 위해 밴쿠버 국제공항은 유니티와 협업해 공항의 디지털 트윈과 통합되는 상황 인식 툴을 개발했다. 그 결과 공항 직원과 파트너들은 이 툴을 통해 승객, 항공기, 화물의 안전을 우선하면서도 선제적으로 빠르게 운영 문제에 대응할 수 있게 되었다. 밴쿠버 공항 공사의 르넷 듀존 CIO는 “밴쿠버 국제공항은 직원들이 동적 환경에서 근무하는 데 필요한 툴을 갖추기를 원한다. 디지털 트윈 기술은 공항과 관련된 많은 문제를 해결하고 우리 직원들이 상황을 인식하는 데에 도움이 되는 유용한 기능을 제공한다”고 말했다. 상황 인식 툴은 터미널 전체의 실시간 뷰를 제공하고, 정보를 통합하며, 경고를 통해 사용자에게 잠재적 안전 문제와 데이터의 이상 수치를 알린다. 밴쿠버 공항 공사의 직원들은 이 툴을 사용해 정보에 입각한 의사결정을 내리고 보안, 날씨, 기타 잠재적 우려 사항에 관한 가상의 시나리오를 탐색해 볼 수 있다.     공항의 지속가능성 달성을 지원 항공 업계의 탈탄소화 목표에 다가서고 세계에서 가장 친환경적인 공항이 되겠다는 목표를 달성하기 위해, 밴쿠버 국제공항은 디지털 트윈으로 시장 최초의 계산 모델과 측정 기준을 구축하여 착륙부터 이륙까지 항공기의 탄소 배출량을 시각적으로 추적하고 분석한다. 현재 밴쿠버 국제공항이 있는 시아일랜드의 탄소 배출량 중 95% 이상이 항공기 이동, 차량 통행, 공항 외부의 공사 시설에서 발생한다. 이제 밴쿠버 국제공항은 온실가스 배출량을 실시간으로 측정하여 자체 기후 목표와 항공사 파트너의 기후 목표 달성을 더 원활하게 지원할 수 있다. 듀존 CIO는 “탄소 중립을 2050년이 아닌 2030년에 실현할 것이므로 계획을 20년 앞당겨야 한다. 모든 시나리오를 모델링할 수 있는 역량은 효율성과 기후 주제를 완전히 파악하는 데 큰 도움이 될 것”이라고 전했다.     지역 커뮤니티의 화합에 기여 밴쿠버 국제공항은 화합을 달성하기 위해 기술 및 혁신 분야에서 토착민의 참여와 리더십을 증진하고 있다. 밴쿠버 국제공항은 유니티와 협력하여 머스케엄 원주민 보호구역 출신 학습자에게 유니티 교육 프로그램을 제공하고, 학습자들은 디지털 트윈 및 게임 업계에서 향후 일자리를 확보하는 데 도움이 되는 기본적인 3D 기술 자격증을 취득하게 된다. 밴쿠버 국제공항의 디지털 트윈 개발은 공항에 국한되지 않는다. 밴쿠버 국제공항은 유니티와 함께 전 세계 항공 업계를 위해 밴쿠버 국제공항의 디지털 트윈 모델을 상용화하여 다른 공항에서도 디지털 전환을 추진하도록 돕고 있다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2024-03-04